| | A.I. Intelligenza Artificiale

Tante, forse troppe, parole attorno al caldissimo tema dell’Intelligenza Artificiale con il paradosso che in moltissimi ancora non ne capiscono il significato e l’importanza.
Cerchiamo di capire di cosa si tratta e perché tutti ne stanno parlando, tracciando un quadro sulle attuali tecnologie in uso e gli ambiti di maggior focalizzazione dell’Intelligenza Artificiale per il business.
Cos’è l’Intelligenza Artificiale? In modo semplicistico potremmo definire l’intelligenza artificiale come l’abilità di un sistema tecnologico di risolvere problemi o svolgere compiti e attività tipici della mente e dell’abilità umane. Guardando al settore informatico, potremmo identificare l’AI – Artificial Intelligence come la disciplina che si occupa di realizzare macchine (hardware e software) in grado di 'agire' autonomamente (risolvere problemi, compiere azioni, ecc.).
Il fermento attuale attorno a questa disciplina si spiega con la maturità tecnologica raggiunta sia nel calcolo computazionale (oggi ci sono sistemi hardware molto potenti, di ridotte dimensioni e con bassi consumi energetici), sia nella capacità di analisi in real-time ed in tempi brevi di enormi quantità di dati e di qualsiasi forma (Analytics).
L’interesse della comunità scientifica per l’Intelligenza Artificiale ha inizio però da molto lontano: il primo vero progetto di Artificial Intelligence (ormai nota con l’acronimo AI) risale al 1943 quando i due ricercatori Warren McCulloch e Walter Pitt proposero al mondo scientifico il primo neurone artificiale cui seguì poi nel 1949 il libro di Donald Olding Hebb, psicologo canadese, grazie al quale vennero analizzati in dettaglio i collegamenti tra i neuroni artificiali ed i modelli complessi del cervello umano. I primi prototipi funzionanti di reti neurali [cioè modelli matematici/informatici sviluppati per riprodurre il funzionamento dei neuroni biologici per risolvere problemi di intelligenza artificiale intesa, in quegli anni, come la capacità di una macchina di compiere funzioni e fare ragionamenti come una mente umana – ndr] arrivarono poi verso la fine degli anni ’50 e l’interesse del pubblico si fece maggiore grazie al giovane Alan Turing che già nel 1950 cercava di spiegare come un computer possa comportarsi come un essere umano.
Il termine Artificial Intelligence in realtà parte 'ufficialmente'programmazione (Lisp nel 1958 e Prolog nel 1973) specifici per l’AI. Da lì in poi la storia dell’Intelligenza Artificiale è stata abbastanza altalenante caratterizzata da avanzate significative dal punto di vista dei modelli matematici (sempre più sofisticati modellati per 'imitare' alcune funzionalità cerebrali come il riconoscimento di pattern) ma con alti e bassi dal punto di vista della ricerca sull’hardware e sulle reti neurali. La prima grande svolta su quest’ultimo fronte è arrivata negli anni ’90 con l’ingresso sul mercato 'allargato' (arrivando cioè al grande pubblico) dei processori grafici, le Gpu – graphics processing unit (chip di elaborazione dati molto più veloci delle Cpu, provenienti dal mondo del gaming ed in grado di supportare processi complessi molto più rapidamente, per altro operando a frequenze più basse e consumando meno energia rispetto alle 'vecchie' Cpu).
L’ondata più recente è arrivata nell’ultimo decennio con lo sviluppo dei cosiddetti 'chip neuromorfici', ossia microchip che integrano elaborazione dati e storage in un unico micro componente (grazie all’accelerazione che ha avuto anche la ricerca nel campo delle nanotecnologie) per emulare le funzioni sensoriali e cognitive del cervello umano (ambito quest’ultimo dove si stanno concentrando anche molte startup).
Autore/Fonte: Pratonotizie
| | |